La probabilidad es una cantidad numérica que expresa qué tan factible es que ocurra un evento. Se expresa como \(P(A)\) donde \(A\) es un evento aleatorio.
Siempre se encuentra en un rango de 0 a 1. Expresado como porcentaje entre 0% y 100%. Existen distintos acercamientos a la probabilidad como el acercamiento frecuentista o el acercamiento bayesiano.
En este caso, aprenderemos el enfoque frecuentista como una forma de asignar una probabilidad mensurable a un evento, es decir, la ocurrencia de el evento a la larga (qué tan frecuentemente ocurre).
En este enfoque, la probabilidad de un evento se determina a través por el número de veces que el evento \(A\) ocurre en una serie de repeticiones indefinidamente largas.
\[ P(A) = \frac{Veces \space que \space ocurre \space A}{Número \space total \space de \space repeticiones} \]
1- La probabilidad de que un evento \(A\) ocurra está siempre entre 0 y 1.
\[ 0 \le P(A) \le 1 \]
2- Siempre y cuando dos eventos sean complementarios, la suma de probabilidades debe ser igual a 1.
\[ P(A) + P(\bar{A}) = 1 \]
3- La probabilidad de que el evento \(A\) no ocurra es…
\[ P(\bar{A}) = 1 - P(A) \]
Donde \(P(\bar{A})\) es el complemento de \(P(A)\).
4- Si \(A\) y \(B\) son eventos disjuntos (no ocurren en conjunto):
\[ P(A \cup B) = P(A) + P(B) \]
5- Si \(A\) y \(B\) son eventos que ocurren en conjunto:
\[ P(A \cup B) = P(A) + P(B) - P(A \cap B) \]
Donde \(P(A \cap B)\) es la probabilidad de que ocurra \(A\) y \(B\) al mismo tiempo.
6- Si dos eventos son independientes, entonces:
\[ P(A \cap B) = P(A) \times P(B) \]
7- Si dos eventos son dependientes entonces:
\[ P(A \cap B) = P(A) \times P(B|A) \]
El valor 𝑃(𝐵|𝐴) corresponde a la probabilidad condicional, y nos dice cuál es la probabilidad de que el evento \(B\) ocurra dado que ha ocurrido ya el evento \(A\). Para calcular la probabilidad condicional utilizamos:
\[ P(A|B) = \frac{P(A \cap B)}{P(B)} \\ P(B|A) = \frac{P(A \cap B)}{P(A)} \\ P(A|B) \ne P(B|A) \]
8- Para dos eventos cualesquiera:
\[ P(A) = P(B) \times P(A|B) + P(\bar{B}) \times P(A|\bar{B}) \]
Una distribución de probabilidad corresponde a una descripción que da la probabilidad para cada valor de una variable aleatoria. La variable aleatoria puede ser discreta o puede ser continua.
Un histogramas de frecuencias relativas representa las proporciones de las observaciones en cada categoría.
Para variables continuas normalmente se utilizan clases muy estrechas para representar al histograma como una curva de densidad.
La coordenada \(y\) de una curva de densidad representa la escala de densidad y a menudo las frecuencias relativas se representan como áreas debajo de la curva.
Algunos de los requisitos de una distribución de probabilidad son:
Que exista una variable aleatoria numérica \(x\) y que sus valores estén asociados a una probabilidad.
Que \(\sum P(x) = 1\), donde \(x\) asume todos los los valores posibles. El área total bajo la curva de densidad debe ser igual a 1.
Que la probabilidad de ver a \(x_i\) se encuentre entre 0 y 1. Es decir, \(0 \le P(x_i) \le 1\).
Distribución normal
Distribución \(t\) de Student
Distribución de \(F\)
Distribución de Chi
Media: \(\mu\)
Varianza: \(\sigma^2\)
Desviación estándar: \(\sigma\)
Tamaño de muestra: \(n\)
Distribución de probabilidad para una variable discreta.
Cuenta el número de éxitos (\(k\)) tras realizar \(n\) veces un experimento.
Cada intento debe ser independiente entre sí. La probabilidad de éxito es fija entre cada intento y se denota con la letra \(p\).
Resultados binarios: Solamente existen dos posibilidades para cada intento (éxito o fracaso, cara o cruz, dominante o recesivo, muerto o vivo, niño o niña, etc.).
Intentos independientes: Cada prueba o intento deben ser independientes del anterior.
El valor de \(n\) es fijo: Se sabe con antelación el número de pruebas \(n\).
Mismo valor \(p\): En todos los casos, la probabilidad de éxito o fracaso no debe cambiar, es decir \(p\) debe permanecer constante.
Resultados mutuamente excluyentes: Es decir, no se puede tener éxito y fracaso al mismo tiempo.
Resultados colectivamente exhaustivos: Al menos uno de los dos resultados debe de ocurrir.
La función de masa de probabilidad (PMF) o fórmula de la distribución binomial.
\[ P(X = k) = {\binom{n}{k}}{p^{k}}{q^{n-k}} \]
Donde:
\(P(X = k)\) = probabilidad de obtener \(k\) éxitos.
\(\binom{n}{k}\) = coeficiente binomial.
\(k\) = número de éxitos.
\(p\) = probabilidad de éxito.
\(q\) = probabilidad de fracaso.
\(n\) = número de pruebas.
Corresponde al número de formas en las que se puede acomodar un conjunto dado.
\[ _{n}C_{k} = \binom{n}{k} = \frac{n!}{k!(n-k)!} \]
En este caso la media es el número promedio de éxitos (\(k\)) y la desviación estándar es qué tan lejos de esta media caen el resto de los valores de la distribución.
\[ \mu = {n}{p} \]
\[ \sigma = \sqrt{{n}{p}{(1-p)}} = \sqrt{{n}{p}{q}} \]
También podemos calcular la varianza…
\[ \sigma^2 = {n}{p}{(1-p)} = {n}{p}{q} \]
Supongamos que analizamos a 5 individuos de una población en la que el 37% de las personas presentan un alelo mutante. Las probabilidades de las distintas configuraciones están dadas por la distribución binomial, en donde \(n\) = 5 y \(p\) = 0.37. ¿Cuál es la probabilidad de que exactamente 2 personas sean mutantes?
Para esto utilizamos las funciones de R…
dbinom() nos da un valor exacto de la distribución binomial en el punto indicado.
pbinom() nos da la probabilidad acumulada de un evento.
qbinom() toma el valor de probabilidad que le ponemos como primer argumento y nos da como regreso un número cuya probabilidad acumulada empate con el valor de la probabilidad (también conocida como función cuantil).
rbinom() genera cierta cantidad de número aleatorios de acuerdo con la probabilidad y el número de pruebas realizadas.
¿Qué función podríamos utilizar…?
¡¡dbinom()!!
En este caso \(n = 5\), \(p = 0.37\) y \(k = 2\).
dbinom(2, 5, 0.37)
## [1] 0.3423143
En Estados Unidos, 85% de la población tiene sangre Rh positivo. Supongamos que tomamos 6 personas y contamos cuántos tiene Rh positivo. En este caso \(Y\) representará cuántas personas tienen Rh positivo dentro del grupo de 6.
¿Cuál es la probabilidad de \(Y\) = 4?
¿Y la probabilidad de que al menos 4 personas sean Rh positivo?
¿Y la probabilidad de que haya al menos 1 persona con Rh negativo?
Para el punto 1 buscamos una probabilidad exacta, \(P(Y = 4)\). Es decir podemos utilizar dbinom().
#Probabilidad de que 4 personas tengan Rh positivo. dbinom(4, 6, 0.85)
## [1] 0.1761771
Para el punto 2, buscamos que al menos 4 personas tengan Rh +, es decir \(P(Y \ge 4) = P(Y = 4) + P(Y=5) + P(Y=6)\).
#Probabilidad de que al menos 4 personas (pueden ser 4, 5 o 6) tengan Rh positivo. pbinom(3, 6, 0.85, lower.tail = FALSE)
## [1] 0.9526614
Para el punto 3, buscamos que al menos una persona tenga Rh -. Por ende buscamos el complemento de nuestro evento, \(P(Y = 0) + P(Y = 1) + P(Y = 2) \cdots + P(Y = 5)\), o lo que es lo mismo \(1 - P(Y = 6)\).
#Probabilidad de que al menos 1 persona tenga Rh negativo. dbinom(0, 6, 0.85) + dbinom(1, 6, 0.85) + dbinom(2, 6, 0.85) + dbinom(3, 6, 0.85) + dbinom(4, 6, 0.85) + dbinom(5, 6, 0.85)
## [1] 0.6228505
1 - dbinom(6, 6, 0.85)
## [1] 0.6228505
pbinom(5, 6, 0.85)
## [1] 0.6228505
Llamada así en honor al matemático francés Simeón Denis Poisson. Para eventos aleatorios representados en un intervalo de tiempo determinado, aunque también es utilizada cuando el evento de interés se distribuye en un espacio plano o tridimensional.
Nuestro suceso de interés (\(X\)) tiene valores discretos, mientras que nuestro intervalo tiene valores continuos.
La fórmula de la distribución de Poisson (PMF) es…
\[ P(X = k | \lambda) = \frac{e^{-\lambda}\lambda^k}{k!} \]
Donde:
\(P(X=k|\lambda)\) = número de observaciones \(k\) dado la media \(\lambda\).
\(e\) = número de Euler (aproximadamente 2.7183).
\(\lambda\) = parámetro de la distribución de Poisson, corresponde al promedio de veces que ocurre el evento aleatorio.
Para que una variable sea considerada una variable aleatoria de Poisson se deben de cumplir los siguientes requisitos:
Cada evento tiene que ser independiente.
Las ocurrencias del evento tienen que ser aleatorias.
El número de eventos en un intervalo de tiempo o espacio es infinito (\(k = 0, 1, 2, \cdots, \infty\)).
La probabilidad de que un evento se presente en un intervalo de tiempo es proporcional al intervalo de tiempo o espacio.
Se considera que la probabilidad de que dos eventos se presenten en la misma fracción de tiempo es tan pequeña que se puede considerar inexistente.
La varianza y la media corresponden al mismo valor (\(\lambda\)) por lo que la desviación estándar sería…
\[ \sigma = \sqrt{\lambda} \]
Cuando se cumplen las siguientes condiciones:
Cuando \(p < 0.1\) o \(p > 0.9\).
Cuando \(n \ge 20\). Es todavía mejor si \(n \ge 100\).
Cuando \(np \le 10\).
Utilizada para eventos raros.
\[ \mu = \lambda = np \]
En Escherichia coli, una célula de cada \(10^9\) muta para desarrollar resistencia a la estreptomicina. Si observamos \(2 \times 10^9\) células…
¿Cuál es la probabilidad de que ninguna mute, \(P(X = 0|\lambda)\)?
¿Cuál es la probabilidad de que al menos una mute, \(P(X \ge 1|\lambda)\)?
Estamos hablando de probabilidades demasiado pequeñas, ya que tenemos que encontrar 1 mutante entre \(10^9\) células:
\[ p = \frac{1}{10^9} = 0.000000001 \]
Para este caso, podemos utilizar la aproximación a la probabilidad binomial:
\[ \mu = \lambda = np = (2\times10^9) \times \frac{1}{10^9} = 2 \\ \]
Por lo tanto, \(\lambda = 2\). Observemos que teníamos un valor de \(n\) enorme (\(2 \times 10^9\)) y una \(p\) extremadamente pequeña (\(\frac{1}{10^9}\)) y a pesar de eso, obtuvimos un valor de \(\lambda\) relativamente pequeño.
Como con la distribución binomial, R cuenta con funciones específicas para calcular los valores de una distribución de Poisson.
dpois() nos da un valor exacto de la distribución de Poisson en el punto indicado.
ppois() nos da la probabilidad acumulada de un evento.
qpois() toma el valor de probabilidad que le ponemos como primer argumento y nos da como regreso un número cuya probabilidad acumulada empate con el valor de la probabilidad (también conocida como función cuantil).
rpois() genera cierta cantidad de número aleatorios de acuerdo con la probabilidad y el número de pruebas realizadas.
Para el primer punto, \(P(X = 0|\lambda)\)…
#Probabilidad de que ninguna célula mute. dpois(0, 2)
## [1] 0.1353353
Para el punto 2, \(P(X \ge 1|\lambda)\)…
#Probabilidad de que al menos una célula mute. 1 - dpois(0, 2)
## [1] 0.8646647
Corresponde a una curva en forma de campana o gaussiana, con ciertas características específicas.
Se utiliza para representar la distribución de los valores de una variable \(X\), de dos maneras distintas:
Como una aproximación a un histograma basado en los valores muestreados de la variable \(X\).
Como una representación idealizada de la distribución poblacional de \(X\).
Las curvas con distribución normal toman su forma por dos elementos muy importantes: la media, \(\mu\) y su desviación estándar, \(\sigma\).
Cuando se tiene una curva con distribución normal, se expresa de la siguiente manera \(X \sim N(\mu, \sigma)\).
No se trata de cualquier curva simétrica, si no de una curva simétrica específica, eso lo veremos en su función de densidad de probabilidad (PDF).
Expresa la altura de la curva como una función de la posición en el eje horizontal. El área bajo la curva acumulada se conoce como función de densidad acumulada (CDF).
\[ f(x) = \frac{1}{{\sigma}{\sqrt{2 \pi}}}e^{-\frac{1}{2}(\frac{x-\mu}{\sigma})^2} \]
El centro de una curva normal es \(x = \mu\), los puntos de inflexión están en \(x = \mu + \sigma\) y \(x = \mu - \sigma\).
En principio la curva se extiende hasta el infinito, pero tres desviaciones estándar de la media hacia el valor negativo o positivo da como resultado valores demasiado pequeños. El ancho y alto de una curva normal están determinados por la desviación estándar \(\sigma\).
Normalmente lo que nos interesa de una curva con distribución normal es el área debajo de la curva. Para esto utilizamos la escala estandarizada, en el cual el valor del eje horizontal se denomina valor \(Z\).
La escala de \(Z\) mide las desviaciones estándar a partir de la media, por ejemplo, \(z = 1\) corresponde a una desviación estándar de la media.
Para transformar nuestros datos a la escala \(Z\) simplemente aplicamos la fórmula…
\[ Z = \frac{X - \mu}{\sigma} \]
La variable \(Z\) se le conoce como una variable de distribución normal estándar, ya que se encuentra estandarizada y no importa en que valor se encuentren los datos originales (kg, °C, cm, mmHg, etc.), la variable \(Z\) es adimensional.
Una vez que nuestras variables se encuentran estandarizadas en el valor \(Z\), podemos utilizar tablas de \(Z\) para realizar el cálculo debajo del área que corresponde al valor \(Z\) obtenido, aunque claro, también podemos hacer estos cálculos en R.
68% del área se encuentra entre \(\pm\) 1 distribución estándar.
95% del área se encuentra entre \(\pm\) 2 distribuciones estándar.
99.7% del área se encuentra entre \(\pm\) 3 distribuciones estándar.
dnorm() nos da un valor de densidad normal (PDF).
pnorm() nos da un valor de densidad normal acumulado hasta cierto punto (área debajo de la curva, CDF).
qnorm() toma el valor de densidad normal que le ponemos como primer argumento y nos da como regreso un número cuya densidad normal acumulada empate con el valor de densidad normal ingresado.
rnorm() genera cierta cantidad de número aleatorios de acuerdo al valor de densidad normal.
En una población de peces de la especie Pomolobus aestivalis, la longitud de los individuos sigue una distribución normal. La media de la longitud es de \(\bar{x} = 54.0 \space mm\), y la desviación estándar es de \(s = 4.5 \space mm^2\).
¿Qué porcentaje de los peces mide menos de 60 mm?
¿Qué porcentaje de los peces mide más de 51 mm?
¿Qué porcentaje de los peces miden entre 51 mm y 60 mm?
Para responder la primer pregunta, debemos transformar nuestros datos a valores \(Z\), ya que se encuentran en mm.
(60 - 54)/(4.5)
## [1] 1.333333
Ya que \(z = 1.33\), ahora buscamos el área bajo la curva con la función pnorm().
pnorm(1.33, 0, 1, lower.tail = TRUE)
## [1] 0.9082409
Como podemos ver la probabilidad de que un pez mida menos de 60 mm es de 90.82%.
Para la segunda pregunta, primero debemos encontrar el valor de \(z\) correspondiente a 51 mm y después basta con cambiar el argumento lower.tail a FALSE.
(51 - 54)/(4.5)
## [1] -0.6666667
pnorm(-0.67, 0, 1, lower.tail = FALSE)
## [1] 0.7485711
El resultado indica que 75.86% de los peces miden más de 51 mm. Bastante sencillo, ¿no?
Simplemente calculamos la probabilidad acumulada hasta nuestro valor \(z\) más grande, que en este caso corresponde a 1.33 y le restamos la probabilidad acumulada del valor \(z\) más pequeño, que corresponde -0.67.
pnorm(1.33, 0, 1) - pnorm(-0.67, 0, 1)
## [1] 0.656812
Como resultado obtenemos que el 65.68% de los peces se encuentran en longitudes de entre 51 mm y 60 mm.
Si nos damos cuenta, la distribución normal puede, de cierta manera, interpretarse también como una distribución de probabilidad continua.
Supongamos que queremos encontrar el percentil 70 de la distribución de la longitud de los peces. Supongamos que este valor está representado por la variable \(y\). En otras palabras, queremos encontrar el valor tal que el 70% de las longitudes de los peces son menores que \(y\) y el 30% son mayores.
qnorm(0.7, 0, 1)
## [1] 0.5244005
Como podemos ver, el valor \(z\) correspondiente es \(z = 0.5244\). Podemos realizar un despeje muy sencillo y obtener la fórmula \(y = Z \times \sigma + \mu = 0.5244 \times 4.5 + 54 = 56.3\). Esto quiere decir que 56.3 mm es el percentil 70 de la distribución de nuestros datos.
Ya que muchos procedimientos estadísticos se basan en datos provenientes de una población con distribución normal, es importante saber si nuestros datos siguen está distribución.
Uno de los métodos más utilizados son los gráficos cuantil-cuantil, gráficos Q-Q o Q-Q plot. Veamos un ejemplo con datos de plantas que vienen incluidas en ggplot2.
data("PlantGrowth")
PlantGrowth
## weight group ## 1 4.17 ctrl ## 2 5.58 ctrl ## 3 5.18 ctrl ## 4 6.11 ctrl ## 5 4.50 ctrl ## 6 4.61 ctrl ## 7 5.17 ctrl ## 8 4.53 ctrl ## 9 5.33 ctrl ## 10 5.14 ctrl ## 11 4.81 trt1 ## 12 4.17 trt1 ## 13 4.41 trt1 ## 14 3.59 trt1 ## 15 5.87 trt1 ## 16 3.83 trt1 ## 17 6.03 trt1 ## 18 4.89 trt1 ## 19 4.32 trt1 ## 20 4.69 trt1 ## 21 6.31 trt2 ## 22 5.12 trt2 ## 23 5.54 trt2 ## 24 5.50 trt2 ## 25 5.37 trt2 ## 26 5.29 trt2 ## 27 4.92 trt2 ## 28 6.15 trt2 ## 29 5.80 trt2 ## 30 5.26 trt2
Vamos a enfocarnos solamente en los datos del grupo control.
control <- PlantGrowth %>% dplyr::filter(group == "ctrl")
Ahora vamos a hacer uso de la librería ggpubr.
library(ggpubr) ggqqplot(control$weight) + labs(x = "Muestra", y = "Teórico")
Otra opción para realizar una prueba de normalidad conocida como prueba de Shapiro-Wilks (aunque no se recomienda que para \(n > 50\)). Es muy sensible a ligeras desviaciones de la normalidad, sobre todo con un tamaño de muestra grande.
#Indicamos nuestra variable con el símbolo de $. shapiro.test(control$weight)
## ## Shapiro-Wilk normality test ## ## data: control$weight ## W = 0.95668, p-value = 0.7475
¿Qué pasa con el valor p?
Valores p menores a 0.05 son indicativos fuertes de no-normalidad.
Después de obtener un valor menor a 0.05, podríamos corroborar esto con un gráfico Q-Q o con un histograma para ver la forma de la distribución de nuestros datos.
La variabilidad entre muestras aleatorias que provienen de una misma población se conoce como variabilidad de muestreo.
Una distribución de probabilidad que caracteriza algún aspecto de la variabilidad de muestreo se conoce como distribución muestral.
Usualmente los valores de una muestra se parecen a los de la población de la cuál provienen.
Una distribución muestral nos indica qué tan cerca la resemblanza entre la muestra y la población es probable que sea.
Imaginemos que muestreamos de una población de Chondestes grammacus.
Ahora imaginemos que hacemos el muestreo 50 veces… O tal vez 100, ¿O 200?
Normalmente tomamos solamente una muestra aleatoria de una población. Pero para visualizar la distribución muestral, necesitamos realizar un meta-estudio, que consiste en repetir de manera indefinida, réplicas del mismo estudio.
Si un estudio consiste en extraer una muestra aleatoria de tamaño \(n\) de una población, un meta-estudio consiste en repetir varias veces la extracción de una muestra de tamaño \(n\) de una población.
Las probabilidades relativas de una muestra aleatoria se pueden interpretar como frecuencias relativas en un meta-estudio. Conocer la distribución muestral nos permite hacer afirmaciones de probabilidad de otras posibles muestras.
Si pensamos en un modelo de muestreo aleatorio y tomamos la media muestral como una variable \(\overline{X}\), podemos hacer ciertas inferencias.
Reformulamos nuestra pregunta a ¿Qué tan cerca de \(\mu\) es probable que este \(\overline{X}\)? Nuestra respuesta la encontramos en la distribución muestral de \(\overline{X}\).
En promedio, la media de la distribución muestral \(\overline{X}\) equivale a la media de la población \(\mu\).
\[ \mu_{\overline{X}} = \mu \]
La fórmula de la desviación estándar de la muestra es un poco menos intuitiva, aunque si se analiza de manera detallada tiene sentido.
\[ \sigma_{\overline{X}} = \frac{\sigma}{\sqrt{n}} \]
Mientras el tamaño de muestra incrementa, la desviación estándar de \(\overline{X}\) disminuye. Es decir para muestras más grandes existe menos variación.
La forma está determinada por el tamaño de muestra y la naturaleza de la población. Si la población \(X\) se distribuye de manera normal, entonces la distribución muestral de \(\overline{X}\) será también normal, sin importar el tamaño de nuestra \(n\).
Indica que si obtenemos una \(n\) suficientemente grande, la distribución muestral de \(\overline{X}\) será aproximadamente normal incluso para muestras cuya población \(X\) no se distribuye de manera normal.
Supongamos que tenemos una población del Gorrión Arlequín (Chondestes grammacus) en la cuál el peso medio es de \(\mu = 11 \space g\) y la desviación estándar \(\sigma = 1.2 \space g\).
Tomamos una muestra aleatoria de seis aves (\(n = 6\)). Dejemos que \(\overline{x}\) represente la media del peso de las seis aves. Ya que sabemos que el peso de esta ave sigue una distribución normal en la población, también nuestras muestras seguirán una distribución normal.
\[ \mu_{\overline{X}} = \mu = 11 \space g\\ \sigma_{\overline{X}} = \frac{\sigma}{\sqrt{n}} = \frac{1.2}{\sqrt{6}} = 0.49 \space g \]
En este caso \(\mu_{\overline{X}} = 11 \space g\) y \(\sigma_{\overline{X}} = \space 0.49 g\). De tal manera que, en promedio la media de la muestra será 11 g, sin embargo, el 68% de las veces \(\overline{X}\) se encontrará entre \(11 \space g \pm 0.49 \space g\) y el 95% de las veces se encontrará entre \(11 \space g \pm 0.98g\).
Esta distribución muestral expresa distintas posibilidades para los valores de \(\overline{X}\).
Supongamos que quisiéramos saber la probabilidad de que la media de una muestra de seis aves sea mayor a 11.5 g. Ya que nuestros datos son normales, podemos usar la transformación a valores \(z\) para obtener nuestro resultado.
\[ z = \frac{\overline{x}-\mu_\overline{X}}{\sigma_{\overline{X}}} = \frac{11.5 \space g - 11 \space g}{0.49 \space g} = 1.0204 \]
Ya que nuestro valor \(z = 1.0204\), usamos la función pnorm() para encontrar nuestra área bajo la curva.
pnorm(1.0204, mean = 0, sd = 1, lower.tail = FALSE)
## [1] 0.1537694
De hecho, ni siquiera es necesario realizar la transformación a valores \(z\) en R ya que podemos modificar los parámetros de la función pnorm().
pnorm(11.5, mean = 11, sd = 0.49, lower.tail = FALSE)
## [1] 0.1537675
Si eligiéramos muchas muestras aleatorias provenientes de esta población cerca del 15% de las muestras tendrían una media mayor a 11.5 g.
\[ P(\overline{X} > 11.5) = P(Z > 1.0204) = 0.1538 \approx 0.15 \]
El tamaño de la muestra tiene un efecto directo sobre la forma de nuestra curva. Básicamente, muestras más grandes dan un \(\sigma_\overline{X}\) menor, y por ende dan un menor error de muestreo.
En seguida se muestran distintas gráficas con distintas \(\mu_\overline{X}\). Para este caso hipotético, \(\mu = 100, \sigma = 40\).
Qué tan cerca esta \(\overline{X}\) de \(\mu\) depende del tamaño de la muestra \(n\).
La media de una muestra grande no necesariamente está más cerca a la media poblacional que la media de una muestra pequeña, pero existe mayor probabilidad de que lo este.
En una población, los estadísticos descriptivos como la media y la desviación estándar se representan por los siguientes símbolos:
\(\mu\): media poblacional.
\(\sigma\): desviación estándar poblacional.
En una muestra, los mismos estadísticos se representan por los siguientes símbolos:
\(\overline{x}\): media muestral.
\(s\): desviación estándar poblacional.
En una distribución muestral lo que nosotros hacemos es repetir un muestreo indefinidas veces y de cada muestreo extraer la media muestral \(\overline{x}\). La distribución muestral representa una distribución de medias.
\(\mu_\overline{X}\): media de una distribución muestral.
\(\sigma_\overline{X}\): desviación estándar de una distribución muestral.